Три человека разбились в Tesla с автопилотом. Но его ведь еще нет! ( 1 фото )
- 20.08.2019
- 1 069
Вы наверняка слышали об этой аварии: 10 августа на Московской кольцевой автодороге электромобиль Tesla на скорости около 100 км/ч врезался в стоявший в крайнем левом ряду эвакуатор. От удара Tesla вспыхнула и выгорела дотла. Водитель и двое пассажиров получили травмы, но выжили. Кто виноват в этой аварии — водитель или автопилот?
Разбираться в этой истории будут долго. Имел ли право стоять на МКАДе, прижавшись к разделительному барьеру, эвакуатор? (Он подъехал к заглохшей машине, чтобы убрать ее с дороги.) Выставил ли водитель эвакуатора знак аварийной остановки? И так далее. Но я не об этом.
Вскоре после аварии мой телефон оборвали радиостанции, телеканалы и знакомые журналисты, которых интересовал вопрос: если Tesla ехала на автопилоте, а водитель не держал руль, кто виноват в этой аварии — водитель или автопилот?
Люди, вы серьезно? Ни один производитель пока еще не создал полноценного автопилота, который по нажатию кнопки доставил вас из пункта А в пункт Б.
Ни один производитель пока еще не создал полноценный автопилот, который по нажатию кнопки доставляет вас из пункта А в пункт Б.
Большинство компаний, которые занимаются автономным пилотированием, научили искусственный разум автомобиля понимать около 90 % (может, чуть больше) стандартных ситуаций. Разгон, торможение, последующее ускорение, перестроение из ряда в ряд, распознавание фигур человека и животных и так далее. Так ученик автошколы честно заучивает экзаменационные билеты и сдает на права. Но жизнь состоит не только из билетных ситуаций, а еще из множества нестандартных, спорных, пограничных. Полтора года назад в Америке автопилотная Tesla сбила женщину, которая переходила дорогу с велосипедом. Велосипед отдельно система распознаёт, человека тоже, а вместе — нет. Прижавшийся к барьеру эвакуатор для нее тоже нестандарт.
И чем меньше процент не освоенных автопилотом ситуаций, тем труднее научить его адекватно реагировать на оставшиеся, самые сложные.
Илон Маск прекрасно знает, что такое кликбейт (англ. click — щелчок, bait — наживка). Видишь в интернете заголовок про известного артиста, который умер на сцене, кликаешь — а там рассказ о его новой роли в кино. Чертыхаешься, плюешься — но ведь сработало! Ты открыл статью, прочитал.
Так вот, фирма Tesla назвала ассистент помощи водителю именно по законам кликбейта: Full Self-Driving Capability — возможность полного самоуправления. Понимай как хочешь: то ли полный автопилот, то ли это лишь возможность… Только после грандиозного скандала, когда специалисты Euro NCAP доказали, что автопилотом у Теслы и не пахнет, из ее конфигуратора исчезла эта опция — на следующий же день. Название ушло, но система-то осталась! А тем временем к тесловскому ассистенту прочно приклеилось модное название «автопилот». И люди верят!
И вот человек едет с двумя детьми по ночной загруженной трассе, включает недоавтопилот… Собственно, не так важно, держал ли водитель руки на руле или нет. Контролировал ситуацию или нет. Очевидно — нет. Да и признался, что не тормозил. Машина сама начала тормозить — но слишком поздно, за мгновение до удара. Ну не получилось у нее — что возьмешь с куска железа?
А что взять с человека? Приходишь прыгать со 100‑метровой тарзанки, а тебе говорят: с вероятностью 10% резинка оборвется! Рискнете прыгнуть? Вряд ли. А липовому автопилоту свою единственную жизнь и жизнь детей почему-то доверяют. Странно, правда?
И еще. Россия является членом Венской конвенции о дорожном движении, согласно которой за всё, что происходит с автомобилем, отвечает водитель. И до тех пор, пока на международном уровне не принято иных юридических норм, а искусственный интеллект работает с надежностью плохой тарзанки, будет именно так. Учитесь водить автомобиль. Думайте за себя и за того парня, у которого включен как бы автопилот. Потому что искусственный интеллект становится всё более популярным по причине вымирания естественного.
- На доводку робомобилей уйдет несколько лет, однако главный аспект, который препятствует их повсеместному выводу на дороги, — правовой. Да и разработать моральный кодекс для искусственного интеллекта куда сложнее, чем научить машину правильно распознавать и интерпретировать окружающую обстановку.
Материал взят: Тут